
刚刚DeepSeek发布3.1版本,实测有进步,在编程等个别场景可硬刚GPT-5
刚刚DeepSeek发布3.1版本,实测有进步,在编程等个别场景可硬刚GPT-5没等到Deepseek R2,DeepSeek悄悄更新了V 3.1。官方群放出的消息就提了一点,上下文长度拓展至128K。128K也是GPT-4o这一代模型的处理Token的长度。因此一开始,鲸哥以为从V3升级到V 3.1,以为是不大的升级,鲸哥体验下来还有惊喜。
来自主题: AI资讯
7342 点击 2025-08-20 03:37